AI的决定性时刻!
声明:本文仅梳理公司和行业的最新基本面,并非在当前时间点推荐买卖公司,本公众号不具备个股操作指导功能,投资有风险,入市需谨慎
英伟达GTC 2023主题演讲速递及观点更新
英伟达 CEO 黄仁勋《切勿错过 AI 的决定性时刻》主题演讲强调了加速计算和人工智能在各个领域的应用。同时,英伟达公布了包括全新的量子计算系统、云服务平台、视觉图像系统等AI技术的最新应用,主要内容包括:
1)发布【DGX云和NVDIA AI FOUNDATIONS】;
2)发布【H100-NVL】;
3)加速库;
4)Grace CPU等数据中心硬件;
5)Omniverse;
1、英伟达AI云服务降低生成式门槛
英伟达发布NVDIA AI FOUNDATION,包括NEMO、PICASSO、BIONEMO等三项服务内容。其中NEMO为英伟达自2020年5月发布后的重要更新,进一步支持了构建定制的语言文本转文本生成式模型。客户可以引入自己的模型,或从 Nemo 涵盖了 GPT-8、GPT-43 到 GPT-530 等数十亿参数的预训练模型入手。PICASSO和BIONEMO则进一步支持了视觉语言模型和生物医药生成式AI模型开发服务。
DGX云和NVDA AI FOUNDATIONS将有力支持企业研发和部署生成式AI模型的脚步,进一步打开应用空间。
2、H100-NVL有望加速下游应用落地
本次英伟达发布H100 NVL。H100 NVL是专门针对生成式AI语言模型用户的H100加速器变体,双GPU提供188GB HBM3内存(NVDA产品序列中最高),预计23H2开始发货,可将大型语言模型的处理成本降低一个数量级。我们认为该款产品的应用有望降低生成式AI的应用成本,加速下游应用落地。
3、看好生成式AI行业机会
ChatGPT是历史上用户数量增长最快的应用,其生成的文本令人赞叹。生成式AI是一种新型计算机,一种我们可以用人类语言进行编程的计算机。每个人都可以是程序员。
AI行业的技术进步将给电子行业投资带来重大变化,持续看好服务器/应用/平台企业机会
4、算力保障人工智能技术飞速发展,GPU支撑强大算力落地。
ChatGPT应用场景下的GPU通常指GPGPU,去掉GPU为了图形处理而设计的加速硬件单元,保留了GPU的SIMT架构和通用计算单元。所以对于ChatGPT场景下的AI训练、矩阵运算等通用计算类型的任务仍然保留了GPU的优势,即高效搬运,运算,重复性的有海量数据的任务。#国内公司海光信息的DCU产品归属的GPGPU范畴可广泛用于包括ChatGPT所处的人工智能及大数据等领域。
5、PCB&连接器满足算力数量需求,广泛应用数据中心领域。
ChatGPT大模型的特点带来了陡增的算力需求,仅GPT3模型就需要上千片A100芯片超一个月的训练时间,其中包括1750亿个参数、45TB数据量。服务器、交换机等作为算力的载体和传输硬件,将极大提升PCB和连接器等部件的用量。以传统核心算力板卡供应商胜宏科技为例,公司支持主要供应英伟达A100+H100的板卡,单价较高。连接器公司鼎通科技的通信数据中心业务占比高达60%,公司I/O连接器、CAGE和背板连接器产品直接供应安费诺、莫仕、泰科等头部公司,最终应用于数据中心与服务器领域。
今天就聊这么多,感兴趣的戳文末阅读原文链接,加入星球,有更多投资策略、教程和工具,等着你。